多変量回帰・・・好きですか?
2025-05-28
古くから研究されつくされており、信頼感がある
多くの統計ソフトに入っており、行うのが簡単
解釈性が高く、分かりやすい
本当?
logistic model (estimated using ML) to predict death_01 with swang1, age, sex, race, edu, income, ninsclas, cat1, das2d3pc, dnr1, ca, surv2md1, aps1, scoma1, wtkilo1, temp1, meanbp1, resp1, hrt1, pafi1, paco21, ph1, wblc1, hema1, sod1, pot1, crea1, bili1, alb1, resp, card, neuro, gastr, renal, meta, hema, seps, trauma, ortho, cardiohx, chfhx, dementhx, psychhx, chrpulhx, renalhx, liverhx, gibledhx, malighx, immunhx, transhx and amihx (formula: death_01 ~ swang1 + age + sex + race + edu + income + ninsclas + cat1 + das2d3pc + dnr1 + ca + surv2md1 + aps1 + scoma1 + wtkilo1 + temp1 + meanbp1 + resp1 + hrt1 + pafi1 + paco21 + ph1 + wblc1 + hema1 + sod1 + pot1 + crea1 + bili1 + alb1 + resp + card + neuro + gastr + renal + meta + hema + seps + trauma + ortho + cardiohx + chfhx + dementhx + psychhx + chrpulhx + renalhx + liverhx + gibledhx + malighx + immunhx + transhx + amihx)
Logistic Regression Model
lrm(formula = death_01 ~ rcs(age, 4) * rcs(crea1, 4) + sex +
meanbp1 + hrt1 + resp1 + alb1, data = rhc_prep)
Frequencies of Missing Values Due to Each Variabledeath_01 age crea1 sex meanbp1 hrt1 resp1 alb1
0 0 0 0 0 0 0 2
| Model Likelihood Ratio Test |
Discrimination Indexes |
Rank Discrim. Indexes |
|
|---|---|---|---|
| Obs 5733 | LR χ2 425.17 | R2 0.098 | C 0.658 |
| 0 2013 | d.f. 20 | R220,5733 0.068 | Dxy 0.317 |
| 1 3720 | Pr(>χ2) <0.0001 | R220,3918.6 0.098 | γ 0.317 |
| max |∂log L/∂β| 8×10-5 | Brier 0.211 | τa 0.144 |
| β | S.E. | Wald Z | Pr(>|Z|) | |
|---|---|---|---|---|
| Intercept | -1.5123 | 1.1423 | -1.32 | 0.1855 |
| age | 0.0354 | 0.0285 | 1.24 | 0.2141 |
| age' | 0.0223 | 0.0640 | 0.35 | 0.7272 |
| age'' | -0.0605 | 0.4179 | -0.14 | 0.8848 |
| crea1 | 0.6915 | 1.2167 | 0.57 | 0.5698 |
| crea1' | -6.2577 | 22.2259 | -0.28 | 0.7783 |
| crea1'' | 10.0499 | 43.0148 | 0.23 | 0.8153 |
| sex=Male | 0.0882 | 0.0593 | 1.49 | 0.1366 |
| meanbp1 | -0.0043 | 0.0008 | -5.57 | <0.0001 |
| hrt1 | 0.0016 | 0.0008 | 2.06 | 0.0399 |
| resp1 | 0.0030 | 0.0021 | 1.42 | 0.1544 |
| alb1 | -0.1269 | 0.0426 | -2.98 | 0.0029 |
| age × crea1 | -0.0077 | 0.0306 | -0.25 | 0.8017 |
| age' × crea1 | -0.0256 | 0.0673 | -0.38 | 0.7034 |
| age'' × crea1 | 0.0802 | 0.4300 | 0.19 | 0.8521 |
| age × crea1' | 0.1578 | 0.5568 | 0.28 | 0.7769 |
| age' × crea1' | 0.3105 | 1.2149 | 0.26 | 0.7983 |
| age'' × crea1' | -0.5983 | 7.6709 | -0.08 | 0.9378 |
| age × crea1'' | -0.2886 | 1.0772 | -0.27 | 0.7888 |
| age' × crea1'' | -0.5863 | 2.3490 | -0.25 | 0.8029 |
| age'' × crea1'' | 1.0391 | 14.8179 | 0.07 | 0.9441 |
✕
◯
Call: glm(formula = death_01 ~ swang1, family = binomial(link = "logit"),
data = rhc_prep)
Coefficients:
(Intercept) swang1RHC
0.5309 0.2248
Degrees of Freedom: 5734 Total (i.e. Null); 5733 Residual
Null Deviance: 7433
Residual Deviance: 7418 AIC: 7422
通常のアウトカム式のみで一発勝負 ここはDoubly robustは使っちゃいけない
SUTVAの原理
例えば、Matching→G computation あるいは、元々のInclusionを入れて除外したあとにIPW→アウトカム式を入れる そうすることでDoubly robust estimationとなる
基本は、ドメイン知識を入れる ただし、どのような関係性かをみるのにはAICとか、尤度比検定をしても良いかも
すべてのモデルは誤っている。しかし、そのうちのいくつかは役に立つ。
| Parameter | Odds Ratio | 95% CI | p |
|---|---|---|---|
| (Intercept) | 0.25 | 0.11, 0.56 | < .001 |
| rx [Lev] | 0.92 | 0.66, 1.28 | 0.612 |
| rx [Lev+5FU] | 0.59 | 0.42, 0.83 | 0.003 |
| age | 1.01 | 1.00, 1.02 | 0.140 |
| sex | 1.03 | 0.78, 1.36 | 0.841 |
| obstruct | 1.41 | 1.00, 2.01 | 0.053 |
| perfor | 1.00 | 0.44, 2.29 | 0.997 |
| adhere | 1.65 | 1.11, 2.47 | 0.014 |
| surg | 1.47 | 1.07, 2.00 | 0.016 |
| nodes | 1.23 | 1.17, 1.30 | < .001 |
9716.5円/Cap x 4 x 365 = 1400万円/年
医療経済的にどう考えればいい?
estimand -> 誰に?
どれくらい?